LLM 大模型 x 知识图谱 2024 最新 SOTA

本文由 简悦 SimpRead 转码, 原文地址 mp.weixin.qq.com

大模型 LLM 与知识图谱 KG 的结合可以充分发挥两者的优势,例如 LLMs 的通用知识和语言处理能力,以及 KGs 的结构化和准确性。这种结合不仅能够提升模型的知识处理能力,还能够在多个层面上优化模型的性能,更好地解决各种现实世界的问题,例如搜索引擎、推荐系统和 AI 助手等。

Evaluating Large Language Models in Semantic Parsing for Conversational Question Answering over Knowledge Graphs

方法: 通过对不同大小和训练目标的 LLMs 生成的输出进行系统比较,重点关注优化于对话交互的模型。通过广泛的基准数据集,作者评估了模型在从对话中生成 SPARQL 查询方面的性能,并讨论了它们的个体能力和限制。作者的贡献包括评估四个 LLMs 的基准研究,利用自动评估和人工评估来识别生成的图查询中的八种常见错误类型,并详细讨论了用于改善模型性能的提示和微调策略。

创新点:

keqing: knowledge-based question answering is a nature chain-of-thought mentor of LLM

方法: 作者提出了 Keqing 框架,该框架的主要内容是通过预定义的模板将复杂问题分解为子问题,并在知识图谱上检索候选实体,然后通过推理回答子问题,并生成带有推理路径的回答。实验结果表明,Keqing 在知识图谱问答数据集上取得了竞争性的性能,并且能够解释每个问题的回答逻辑。

创新点:

Quartet Logic: A Four-Step Reasoning (QLFR) framework for advancing Short Text Classification

方法: 作者引入了 Quartet Logic: A Four-Step Reasoning(QLFR)框架,该框架将 STC 任务分解为四个步骤:关键概念识别、常识知识检索、文本重写和分类。通过引导 CoT,该框架有效地解决了 STC 中的语义和句法复杂性问题。作者还提出了 CoT-Driven Multi-task learning(QLFR-CML)方法,通过从 LLMs 中转移任务相关的知识来增强较小模型的性能。

创新点:

TechGPT-2.0: A large language model project to solve the task of knowledge graph construction.

方法: 研究重点是评估具有减少参数的大型模型在知识图谱构建任务中的性能,旨在为中国开源社区提供一个能够构建知识图谱并保留 Chat 模型整体能力的实用模型。所有模型都是从 LLAMA2 派生而来,首先在中文上进行预训练,然后使用大量指令进行微调。该报告还介绍了在 TechGPT-2.0 项目开发过程中遇到的挑战和得出的经验。此外,报告还讨论了模型训练中遇到的问题以及解决长文本挑战的技术解决方案。

创新点:

The Earth is Flat? Unveiling Factual Errors in Large Language Models

方法: 作者设计并实现了 FactChecker,这是第一个专门用于系统性发现 LLM 中事实错误的自动化框架。FactChecker 利用结构化的知识图谱自动生成各种主题和关系的问题,通过对 LLM 的回答进行评估,成功地检测出了大量的事实错误。

创新点:

Chain of History: Learning and Forecasting with LLMs for Temporal Knowledge Graph Completion

方法: 本文提出了一种新颖的方法,将时间链接预测视为历史事件链中的事件生成任务,以提高语言模型的推理能力。研究通过有效的微调方法,使语言模型适应特定的图文信息和时间线模式。同时,引入基于结构的历史数据增强和逆向知识的整合,以增强语言模型对结构信息的感知能力。

创新点:

Conversational Question Answering with Reformulations over Knowledge Graph

方法: 作者提出了一种创造性地将问题改写和强化学习结合在知识图谱上的模型 CoRnNet,以实现准确的多轮对话式问答。CoRnNet 利用师生蒸馏方法和强化学习从知识图谱中找到答案。实验结果表明,CoRnNet 在各种基准数据集上超过了现有方法。

创新点:

Think and Retrieval: A Hypothesis Knowledge Graph Enhanced Medical Large Language Models

方法: 本文提出了 HyKGE,一种通过整合 LLMs 和知识图谱来增强医学大型语言模型的假设知识图谱。作者还提出了一个片段重新排序模块,通过分而治之的思想,进一步增强用户查询和外部知识推理路径之间的对齐。通过案例研究,展示了 HyKGE 模型在使用 GPT-3.5 Turbo 时的有效性。

创新点:

KnowledgeNavigator: Leveraging Large Language Models for Enhanced Reasoning over Knowledge Graph

方法: 本文研究了 LLM 中的知识限制挑战,并介绍了一个名为 KnowledgeNavigator 的框架,以提高 LLM 在知识图谱上的推理和问答能力。KnowledgeNavigator 包括三个阶段:问题分析、知识检索和推理。在问题分析阶段,KnowledgeNavigator 首先对问题进行预分析并生成变体,以辅助推理。然后,在 LLM 的指导下,它迭代地检索和过滤知识图谱中的候选实体和关系,提取相关的外部知识。最后,这些知识被转化为有效的提示,以提高 LLM 在知识密集型任务上的性能。

创新点:

Urban Generative Intelligence (UGI): A Foundational Platform for Agents in Embodied City Environment

方法: 本文介绍了城市生成智能(UGI)系统的架构和方法。UGI 系统旨在利用大型语言模型驱动的智能代理来模拟城市的复杂动态,并支持决策等各种应用。该系统的关键组件包括开放数字基础设施、城市模拟器、城市知识图谱和各种数据流。

创新点: